“C’è un bisogno urgente di esplorare le conseguenze della collaborazione tra medici e intelligenza artificiale”

Mentre la stagione autunnale si preannuncia ricca di fiere e convegni sul tema dell'intelligenza artificiale (IA), tra cui "Adopt AI" al Grand Palais di Parigi il 25 e 26 novembre, molti annunci decisamente ottimistici suggeriscono che l'IA potrebbe risolvere la maggior parte dei nostri problemi contemporanei, come un deus ex machina. Tra queste promesse, l'idea che questa tecnologia sarebbe irrimediabilmente in grado di rivoluzionare la salute e le nostre pratiche mediche è evidente agli occhi di tutti. In questo clima di tecnosoluzionismo, per convincere i più scettici, si afferma spesso che l'IA non sostituirà i medici, ma che i medici che la utilizzano sostituiranno coloro che ne fanno a meno.
Questa ingiunzione positivista domina, moltiplicando le formule rassicuranti ripetute in loop, come mantra, tra cui, in particolare: l'essere umano rimarrà il decisore finale; lo strumento è neutrale; questo solleverà gli utenti da compiti noiosi e amministrativi per lasciare loro tempo per compiti più nobili; l'IA ci permetterà di fare meglio con meno; questo ridurrà il carico mentale; è un aiuto, quindi il risultato sarà necessariamente migliore. È su quest'ultima formulazione che vorremmo richiamare l'attenzione, poiché sembra impensabile ipotizzare che la collaborazione tra uomo e IA possa produrre un risultato degradato rispetto a quello atteso.
Questo è un primo difetto che vale la pena approfondire. Se l'IA non fornisce un aiuto sistematico, potrebbe talvolta danneggiare le decisioni mediche, con tutte le conseguenze sulla salute che ciò comporta? La ricerca in ergonomia, sicurezza industriale e fattori umani aiuta a far luce sull'argomento e a sollevare il velo su una realtà di collaborazione uomo-IA che si rivela complessa e ambivalente. In sostanza, quando l'IA non è sufficientemente affidabile, soprattutto quando le sue previsioni risultano corrette al 70%, l'utente potrebbe non essere in grado di identificare sistematicamente i casi in cui la macchina sbaglia, il che lo porta a prendere la decisione sbagliata. Al contrario, quando le prestazioni dell'IA sono chiaramente superiori a quelle degli esseri umani, mantenere una strategia collaborativa può peggiorare il risultato finale.
Hai ancora il 57,61% di questo articolo da leggere. Il resto è riservato agli abbonati.
Le Monde